ИИ Може да ни спаси или може да конструира вируси, за да ни убие
Ето една договорка от най-ужасяващия тип: За по-малко от $100 000 към този момент може да е допустимо да се употребява изкуствен интелект за създаване на вирус, който може да убие милиони хора.
Това е заключението на Джейсън Матени, президент на RAND Corporation, мозъчен концерн, който учи въпросите на сигурността и други въпроси. p>
„ Не би коствало повече да се сътвори патоген, който е кадърен да убие стотици милиони хора, спрямо патоген, който е кадърен да убие единствено стотици хиляди хора “, сподели Матени мен.
За разлика от това, означи той, може да коства милиарди долари за производството на нова ваксина или антивирусно лекарство в отговор.
една от 1995 година, която умъртви 13 души в токийското метро. „ Те биха били в положение да нанесат по-големи вреди “ през днешния ден, сподели Матени.
Аз съм дълготраен член на Aspen Strategy Group, двупартийна организация, която изследва световните проблеми със сигурността и нашата годишна среща този месец се концентрира върху изкуствения разсъдък. Ето за какво Матени и други специалисти се причислиха към нас – и по-късно ни изплашиха.
В началото на 2000 година някои от нас се тревожеха, че едрата шарка ще бъде въведена още веднъж като биологично оръжие, в случай че вирусът бъде откраднат от лабораториите в Атланта и в региона на Новосибирск в Русия, които съхраняват вируса, откогато заболяването е изкоренена. Но със синтетичната биология в този момент не би трябвало да бъде откраднат.
Преди няколко години проучвателен екип сътвори братовчед на вируса на едрата шарка, шарката по конете, в шест месеца за $100 000, а с A.I. може да бъде по-лесно и по-евтино да се уточни вирусът.
Една от аргументите, заради които биологичните оръжия не се употребяват доста, е, че те могат да бъдат като бумеранг. Ако Русия пусне вирус в Украйна, той може да се популяризира в Русия. Но един пенсиониран китайски военачалник повдигна опцията за биологична война, която е ориентирана към избрани раси или етноси (вероятно несъвършено), което би направило биологичните оръжия доста по-полезни. Като опция, може да е допустимо да се развие вирус, който да убие или да направи неработоспособен съответен човек, като проблематичен президент или дипломат, в случай че някой е получил ДНК на този човек на вечеря или банкет.
сподели, че най-важното дълготрайната опасност от биологична война идва от Китай.
A.I. има и по-обнадеждаваща страна, несъмнено. Обещава да усъвършенства образованието, да понижи автомобилните катастрофи, да лекува рак и да създаде чудодейни нови фармацевтични артикули.
Едно от най-известните преимущества е сгъването на протеини, което може да докара до революционен прогрес в медицината. Учените прекарваха години или десетилетия, с цел да схванат формите на обособените протеини, а по-късно беше въведена самодейност на Гугъл, наречена AlphaFold, която можеше да планува формите в границите на минути. „ Това са Гугъл Maps за биология “, ми сподели Кент Уокър, президент по световните въпроси в Гугъл.
Оттогава учените са употребявали обновени версии на AlphaFold, с цел да работят върху фармацевтични артикули, в това число ваксина против малария, един от най-големите убийци на хората в цялата история.
Така че не е ясно дали A.I. ще ни избави или първо ще ни убие.
Учените от години изследват по какъв начин ИИ. може да господства във войната, с самостоятелни дронове или роботи, програмирани да намират и отстраняват цели незабавно. Войната може да включва роботи, които се бият с роботи.
Публикувано единствено този месец откри, че децата, които са се отказали от смарт телефоните си, се радват на усъвършенствано богатство.
Диктаторите са се възползвали от нови технологии. Лиу Сяобо, китайският отстъпник, който получи Нобелова премия за мир, смяташе, че „ интернет е Божи подарък за китайския народ “. Не се получи по този начин: Лиу умря в китайски арест, а Китай употребява ИИ. за усилване на наблюдението и стягане на жителите.
A.I. може също по този начин да улесни манипулирането на хората по способи, които припомнят на Оруел. Проучване, оповестено тази година, откри, че когато Chat GPT-4 има достъп до съществена информация за хората, с които се е заел, е към 80 % по-вероятно да убеди някого, в сравнение с човек със същите данни. Конгресът беше прав да се тревожи за манипулиране на публичното мнение от логаритъма TikTok.
изпълнителна заповед предходната година по отношение на A.I. сигурност, само че също по този начин ще би трябвало да разработим нови системи през идващите години за усъвършенствано ръководство.
Писах за генерираните от AI надълбоко подправени голи изображения и видеоклипове и безнаказаност както на фирмите за deepfake, по този начин и на главните търсачки, които насочват трафик към уеб сайтове за deepfake. И софтуерните компании от време на време употребяват имунитет, с цел да избегнат отговорност за поощряване на половата употреба на деца. Нищо от това не вдъхва доверие в качествата на тези компании да се самоуправляват отговорно.
„ Никога не сме имали условия, при които най-опасната и най-въздействащата технология живее напълно в частния бранш “, сподели Сюзън Райс, която беше консултант по националната сигурност на президента Барак Обама. „ Не може софтуерните компании в Силиконовата котловина да вземат решение ориста на националната ни сигурност и може би ориста на света без ограничавания. “
Мисля, че е вярно. Управление на ИИ без да го задушаваме, това ще бъде едно от огромните ни провокации, до момента в който одобряваме може би най-революционната технология, откогато Prometheus ни донесе огън.
към редактора. Бихме желали да чуем какво мислите за тази или някоя от нашите публикации. Ето някои. А ето и нашия имейл:.
Следвайте раздела за мнение на New York Times по отношение на,,, и.